查看原文
其他

带你了解增强现实的基础理论、核心技术、系统架构以及激动人心的应用和未来

华章计算机 华章计算机 2020-09-07


新书速递


随着真实世界中计算机生成的信息越来越多,增强现实(AR)可以通过不可思议的方式增强人类的感知能力。这个快速发展的领域要求学习者掌握多学科知识,包括计算机视觉计算机图形学人机交互等。


今天小编给大家介绍《增强现实:原理与实践》,这本书将以上知识有机融合,严谨且准确地展现了当前颇具影响力的增强现实技术和应用。全书从基础理论核心技术系统架构领域应用的角度深入浅出地介绍增强现实的相关知识,实现了理论与实践的有机融合,适合开发者、高校师生和研究者阅读。



本书内容



显示:涵盖头戴式显示器、手持式显示器和投影式显示器等。

跟踪/感知:包括物理原理、传感器融合以及实时计算机视觉等。

标定/注册:实现可重复、精确且一致的操作。真实和虚拟物体的无缝融合。

可视化:使信息的呈现更直观、更容易理解。

交互:从简单的情境信息浏览到全面的三维交互。

通过增强现实创建新的几何内容。

AR的表示和数据库的开发。

具有实时、多媒体和分布式元素的AR系统架构。


目录


出版者的话

前言

致谢

第1章 增强现实介绍1

1.1 定义和范围1

1.2 增强现实简史2

1.3 示例8

1.3.1 工业和建筑业8

1.3.2 维修和培训10

1.3.3 医疗11

1.3.4 个人信息显示12

1.3.5 导航13

1.3.6 电视14

1.3.7 广告和商务15

1.3.8 游戏17

1.4 相关领域17

1.4.1 混合现实连续体18

1.4.2 虚拟现实18

1.4.3 普适计算18

1.5 小结20

第2章 显示21

2.1 多模态呈现21

2.1.1 听觉呈现21

2.1.2 触力觉呈现22

2.1.3 嗅觉和味觉呈现23

2.2 视觉感知24

2.3 需求与特点25

2.3.1 增强方法25

2.3.2 单视和体视27

2.3.3 调焦28

2.3.4 遮挡30

2.3.5 分辨率和刷新率31

2.3.6 视场32

2.3.7 视点偏移33

2.3.8 亮度和对比度35

2.3.9 扭曲和畸变36

2.3.10 延迟36

2.3.11 人因工程学36

2.3.12 社会接受度36

2.4 空间显示模型37

2.5 视觉显示38

2.5.1 近眼显示器39

2.5.2 手持式显示器46

2.5.3 固定式显示器47

2.5.4 投影式显示器52

2.6 小结56

第3章 跟踪57

3.1 跟踪、标定和注册57

3.2 坐标系58

3.2.1 模型变换59

3.2.2 视图变换59

3.2.3 投影变换59

3.2.4 参考帧59

3.3 跟踪技术的特点60

3.3.1 物理现象60

3.3.2 测量原理60

3.3.3 测量的几何属性61

3.3.4 传感器布置61

3.3.5 信号源61

3.3.6 自由度62

3.3.7 测量坐标62

3.3.8 空间传感器布置62

3.3.9 工作区范围63

3.3.10 测量误差63

3.3.11 时间特性64

3.4 固定跟踪系统64

3.4.1 机械跟踪64

3.4.2 电磁跟踪65

3.4.3 超声波跟踪66

3.5 移动传感器66

3.5.1 全球定位系统67

3.5.2 无线网络68

3.5.3 磁力仪68

3.5.4 陀螺仪69

3.5.5 线性加速度计69

3.5.6 里程表70

3.6 光学跟踪70

3.6.1 基于模型跟踪与无模型跟踪71

3.6.2 照明71

3.6.3 标志点与自然特征73

3.6.4 目标识别77

3.7 传感器融合79

3.7.1 互补传感器融合79

3.7.2 竞争传感器融合79

3.7.3 协作传感器融合80

3.8 小结81

第4章 增强现实中的计算机视觉82

4.1 标志点跟踪83

4.1.1 摄像机表示84

4.1.2 标志点检测85

4.1.3 单应位姿估计87

4.1.4 位姿优化90

4.2 多摄像机红外跟踪90

4.2.1 斑块检测91

4.2.2 建立点对应关系91

4.2.3 双摄像机的三角测量92

4.2.4 两台以上摄像机的三角测量93

4.2.5 包含球体标志物的目标匹配93

4.2.6 绝对朝向94

4.3 自然特征检测跟踪94

4.3.1 兴趣点检测95

4.3.2 创建描述符98

4.3.3 匹配描述符99

4.3.4n点透视位姿99

4.3.5 鲁棒的位姿估计100

4.4 增量跟踪101

4.4.1 主动搜索102

4.4.2Kanade-Lucas-Tomasi跟踪102

4.4.3 零归一化交叉相关103

4.4.4 分层搜索104

4.4.5 联合检测与跟踪105

4.5 同时定位与地图构建106

4.5.1 本质矩阵的五点算法107

4.5.2 集束调整108

4.5.3 并行跟踪与地图构建108

4.5.4 重定位与闭环109

4.5.5 稠密地图构建110

4.6 户外跟踪112

4.6.1 可扩展的视觉匹配113

4.6.2 传感器先验信息114

4.6.3 几何先验信息115

4.6.4 同时跟踪、地图构建及定位116

4.7 小结120

第5章 标定与注册121

5.1 摄像机标定121

5.1.1 摄像机内参121

5.1.2 校正镜头畸变122

5.2 显示器标定123

5.2.1 单点主动对准法125

5.2.2 使用指向装置的头戴式显示器标定126

5.2.3 手–眼标定127

5.3 注册129

5.3.1 几何测量失真129

5.3.2 误差传播129

5.3.3 延迟130

5.3.4 滤波和预测130

5.4 小结131

第6章 视觉一致性132

6.1 注册132

6.2 遮挡134

6.2.1 遮挡细化135

6.2.2 概率遮挡136

6.2.3 无模型遮挡136

6.3 光度注册138

6.3.1 基于图像的光照139

6.3.2 光探针140

6.3.3 离线光照采集142

6.3.4 基于静止图像的光度注册142

6.3.5 基于镜面反射的光度注册142

6.3.6 基于漫反射的光度注册143

6.3.7 基于阴影的光度注册 144

6.3.8 室外光度注册 145

6.3.9 重建精确光源145

6.4 通用光照145

6.4.1 差分渲染146

6.4.2 实时全局光照147

6.4.3 阴影148

6.4.4 漫射全局光照 150

6.4.5 镜面全局光照152

6.5 消隐现实153

6.5.1 感兴趣区域的确定153

6.5.2 隐藏区域的观察与建模154

6.5.3 感兴趣区域的移除154

6.5.4 基于投影的消隐现实155

6.6 摄像机仿真155

6.6.1 镜头畸变156

6.6.2 模糊157

6.6.3 噪声157

6.6.4 渐晕158

6.6.5 色差158

6.6.6 拜耳模式伪影 158

6.6.7 色调映射伪影158

6.7 风格化增强现实159

6.8 小结159

第7章 情境可视化161

7.1 挑战162

7.1.1 数据过载162

7.1.2 用户交互163

7.1.3 注册误差163

7.1.4 视觉干扰163

7.1.5 时间一致性164

7.2 可视化注册165

7.2.1 本地注册情境可视化165

7.2.2 全局注册情境可视化165

7.2.3 注册不确定性166

7.3 注释和标记166

7.3.1 标记基础166

7.3.2 优化技术167

7.3.3 时间一致性168

7.3.4 图像导引放置170

7.3.5 易读性170

7.4X射线可视化171

7.4.1 物体空间幻影171

7.4.2 图像空间幻影172

7.4.3G缓冲器实现173

7.5 空间操作174

7.5.1 爆炸图174

7.5.2 空间扭曲176

7.6 信息过滤177

7.6.1 基于知识的过滤177

7.6.2 空间过滤177

7.6.3 基于知识的过滤与空间过滤的结合179

7.7 小结180

第8章 交互181

8.1 输出模态181

8.1.1 增强放置181

8.1.2 灵巧显示182

8.1.3 魔镜184

8.2 输入模态186

8.2.1 刚体的跟踪和操控186

8.2.2 人体跟踪187

8.2.3 手势188

8.2.4 触控189

8.2.5 基于物理的界面190

8.3 有形界面191

8.3.1 有形表面191

8.3.2 通用有形物体191

8.3.3 特定有形物体192

8.3.4 透明有形物体194

8.4 真实表面上的虚拟用户界面195

8.5 增强纸196

8.6 多视界面197

8.6.1 多显示焦点+上下文197

8.6.2 共享空间197

8.6.3 多位置198

8.6.4 跨视图交互200

8.7 触力觉交互201

8.8 多模态交互202

8.9 会话代理203

8.10 小结205

第9章 建模与注释206

9.1 指定几何206

9.1.1 点206

9.1.2 平面208

9.1.3 体208

9.2 指定外观209

9.3 半自动重建210

9.4 自由曲面建模213

9.5 注释214

9.6 小结216

第10章 开发217

10.1 增强现实开发的需求218

10.1.1 真实世界界面218

10.1.2 硬件抽象218

10.1.3 开发流程219

10.2 开发要素219

10.2.1 角色220

10.2.2 故事220

10.2.3 舞台220

10.2.4 交互220

10.2.5 设置220

10.3 独立开发方法221

10.3.1 桌面开发221

10.3.2 表演开发223

10.4 插件方法223

10.5 网络技术224

10.6 小结225

第11章 漫游227

11.1 人类漫游基础227

11.2 探索与发现228

11.3 路线可视化228

11.4 视点导航230

11.4.1 目标对象导引230

11.4.2 目标视点导引232

11.5 多视角233

11.5.1 同步多视角233

11.5.2 过渡接口235

11.6 小结236

第12章 协作237

12.1 协作系统特性237

12.2 同地协作238

12.2.1 个人显示器与视图240

12.2.2 目光感知241

12.2.3 共享空间内的敏捷协作242

12.3 远程协作243

12.3.1 视频共享244

12.3.2 包含虚拟物体的视频共享244

12.3.3 包含几何重建的视频共享246

12.3.4 指向和手势247

12.3.5 包含敏捷用户的远程协作247

12.4 小结248

第13章 软件架构250

13.1 增强现实应用程序的要求250

13.1.1 环境控制和场景动态250

13.1.2 显示空间251

13.1.3 虚实一致251

13.1.4 语义知识251

13.1.5 物理空间251

13.2 软件工程要求252

13.2.1 平台抽象252

13.2.2 用户界面抽象252

13.2.3 重用性和扩展性253

13.2.4 分布式计算253

13.2.5 解耦仿真253

13.3 分布式对象系统253

13.3.1 对象管理254

13.3.2 案例学习:“绵羊”255

13.4 数据流256

13.4.1 数据流图257

13.4.2 多模态交互257

13.4.3 线程和调度258

13.4.4 案例学习:可穿戴的增强现实装置259

13.5 场景图261

13.5.1 场景图的基本原理261

13.5.2 依赖图262

13.5.3 场景图集成262

13.5.4 分布式共享场景图264

13.6 开发者支持265

13.6.1 参数配置265

13.6.2 脚本声明265

13.6.3 案例学习:增强现实导游267

13.6.4 程序脚本267

13.6.5 混合语言编程268

13.6.6 运行时重配置268

13.6.7 选择一种增强现实平台269

13.7 小结269

第14章 未来271

14.1 商业案例驱动力271

14.1.1 专业用户271

14.1.2 普通消费者272

14.2 增强现实开发者的愿望清单272

14.2.1 摄像机底层API273

14.2.2 多摄像机273

14.2.3 大视场摄像机273

14.2.4 传感器273

14.2.5 统一内存274

14.2.6 移动GPU上的并行编程274

14.2.7 更好的显示设备274

14.3 户外增强现实275

14.3.1 非合作用户275

14.3.2 有限的设备能力275

14.3.3 定位成功率276

14.4 与智能对象交互276

14.5 虚拟现实与增强现实的融合277

14.6 增强人277

14.7 作为戏剧媒介的增强现实278

14.8 作为社交计算平台的增强现实279

14.9 小结280

参考文献281

 


上下滑动查看


视频展示



实拍图


点击上方链接了解详情并购买





更多精彩新书



上新 | 从0到1构建用户画像系统技术和方法论
上新 | 智能领域系统能力培养大成之作!——《智能计算系统》重磅出版!
上新 | “Flutter中文网”社区创始人倾力撰写的网红书 《Flutter实战》正式出版


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存